新财观|人工智能在金融领域应用的风险与应对

新金融

1周前

一是2024年2月,众议院金融服务委员会成立了两党参与的人工智能工作组(TaskForceonArtificialIntelligence),从行业应用、发展路径等角度探讨AI对金融业的影响和相关监管等问题。

24000ab30f0d468f85f40ec99288a579.png

一、AI应用对金融风险的影响

AI技术在金融领域的广泛应用会对金融风险产生复杂影响。一方面,AI有助于缓解信息不对称,提升金融风险管理能力;另一方面,AI模型本身也带来新的风险,并可能放大系统性风险 。

(一)AI技术有利于提升金融风险管理能力

AI技术通过扩展数据处理维度和实时分析能力,有助于金融体系更加主动地识别和防范风险,降低部分传统金融风险的发生概率。

一是缓解信息不对称,提高信用风险管理效率。金融机构利用AI抓取多模态和非结构化数据(如交易记录、社交媒体行为等)来丰富对借款人和交易对手的认识,从而缓减信息不对称。机器学习模型能够比传统评分方法更有效地评估借款人的违约概率,尤其是在市场环境波动时或新兴领域,帮助金融机构更有效地将信贷资源配置给优质借款人,降低信用风险和信贷损失率(Foucaultet al.,2025)。

二是提升金融风险监测与防范能力。AI模型可通过对海量交易和行为数据的异常模式识别,及时发现欺诈交易和网络攻击迹象,提高金融机构的操作风险管控能力(Aldasoro et al.,2024)。监管机构也可以借助AI工具监测市场交易和舆情信息,及时捕捉金融体系中的风险苗头(Foucault et al., 2025)。换言之,AI应用有利于增强金融体系对风险事件的敏感度和响应速度,使得风险可以在酝酿阶段就被识别并得到缓释和控制。

(二)过度依赖AI模型可能带来新的金融风险

一是AI幻觉(hallucination)降低金融业务输出可靠性。由于训练数据不完备或质量欠佳,金融领域中的AI系统输出内容的可靠性和严谨性难以保证,往往难以满足金融业务对结果精准性、专业性、稳定性、一致性的要求(Barr,2025)。金融行业对数据安全合规性有高要求,而构建高质量AI模型需要大量高质量训练数据;目前许多机构的数据仍分散在各部门形成“数据孤岛”,数据清洗和标注也面临巨大的工作量,这些都增加了模型产生幻觉和错误的可能性。尽管科技公司正努力通过提高训练数据透明度和定制模型来缓解幻觉问题,但可以预见,在相当一段时间内AI幻觉仍将是影响金融AI可靠性的重要风险来源(Shabsigh et al.,2023)。

二是算法“黑箱”使模型可解释性有限,加大风险管理和监管难度。复杂AI模型的内部机制往往不透明,其决策过程难以被人类直接理解,即算法黑箱问题导致模型缺乏充分的可解释性(explainability)。这难以满足金融机构内部风险控制审查和监管部门对某些关键业务流程穿透式监管的要求,不利于有效的风险溯源、管控和责任认定,可能使机构陷入合规困境。在不同机构广泛采用类似的复杂AI模型的情况下,如果模型存在相似缺陷又不易被察觉,就可能在不同机构中同时积累系统性风险隐患(Crisanto et al.,2024;Bank of England,2025)。

三是算法歧视可能产生不公平的结果。AI模型可能固化甚至放大训练数据中的偏见,侵害消费者权益,引发法律和声誉风险。例如,有的金融科技平台可能利用AI推断借款人的支付意愿,对不同借款人进行差异化定价,形成价格歧视(Foucault et al.,2025)。对此,国际组织强调AI系统不应固化偏见,要求在模型开发和应用中纳入公平性原则(Shabsigh et al.,2023;Aldasoro et al.,2024)。

四是依赖少数大型AI服务商带来新的集中度风险。由于开发大模型需要巨额投入和海量数据,市场上只有少数头部企业有能力提供最先进的AI解决方案,掌握着关键技术和算力资源,且其技术在行业中渗透率高。如果多数金融机构在AI底层技术上过度依赖少数技术服务商,则后者实质上就成为具有系统重要性的金融基础设施,形成“大而不能倒”的风险隐患。一旦这类技术服务商发生技术故障或服务中断,可能引发连锁反应,危及整个金融体系的稳定(Crisanto et al.,2024;Bank of England,2025)。此外,如果金融机构普遍使用相似的开源模型或由同一服务商提供的模型来进行风险判断,还可能导致市场行为趋同,放大系统性风险和市场波动。

(三)AI大模型应用可能放大系统性金融风险

一是决策趋同加剧金融市场的顺周期性并引发系统性风险。当众多金融机构和市场参与者采用相似的AI模型、算法和训练数据时,决策趋同可能导致“羊群效应”,易于形成跨机构、跨市场的共振,放大市场波动,威胁金融稳定(Abbas et al.,2024)。由于AI模型可解释性不足,监管者在事前识别此类潜在风险方面较为困难。因此,AI的大规模应用有可能通过提高决策的同质性而加剧顺周期波动,在极端情况下引发系统性金融风险,需要引起高度重视(FSB,2024)。

二是AI技术鸿沟可能拉大大型机构与中小机构间的差距,加剧金融业两极分化,带来金融稳定风险。大模型技术门槛高,大型机构在数据、人才和资金方面更具优势,率先实现AI赋能业务,而中小金融机构处于劣势。近期行业调研显示,全球领先的大型银行在AI成熟度上的进展速度几乎是中小机构的两倍(Evident Insights,2025)。大型机构的先发优势容易形成正反馈,使行业呈现“强者愈强、弱者愈弱”的马太效应。中小机构在竞争压力下可能采取更激进的策略追逐高收益,承担高风险,加剧金融风险暴露。不过,DeepSeek的兴起促使MoE稀疏结构等技术广泛应用,大幅降低推理成本,有助于缩小技术鸿沟。

三是金融消费者保护面临更大挑战。一方面,不法分子可能利用AI实施金融欺诈和信息操纵,给金融消费者造成损失。德勤研究显示,2023年全球金融科技领域的深度伪造(deepfake)欺诈事件同比激增了700%;预计美国因AI相关欺诈所造成的损失将从2023年的约123亿美元飙升至2027年的400亿美元(Deloitte,2024)。另一方面,数据安全与隐私保护的风险增加。金融领域的 AI系统通常需要收集和处理大量敏感数据,既存在数据泄露风险,又面临系统受到网络攻击、数据模型被篡改等风险。

二、人工智能的监管框架与措施

各国的AI监管框架路径存在差异,但都积极探索平衡AI应用发展与安全的有效模式 。美国侧重自愿准则与现行法规并用,欧盟通过专门立法严控高风险AI,英国和新加坡强调灵活监管与行业指引,我国综合运用行政法规、技术标准和伦理准则开展治理。

(一)国外AI监管框架特点和关键举措

近年来,主要经济体陆续发布AI监管政策,全球AI监管体系正逐步成形。

1. 美国

美国的AI治理导向是避免过度干预,主要采取非强制性、分行业的监管方式。2023年1月,美国国家标准与技术研究院发布自愿性的《人工智能风险管理框架》。2023年10月,拜登政府发布行政命令《关于安全、可靠、可信地开发和使用人工智能的行政命令》(Executive Order on the Safe,Secure, and Trustworthy Development and Use of Artificial Intelligence),强调以安全、负责任的方式管理人工智能的开发和使用,加强了AI监管。2024年3月,白宫管理和预算办公室(OMB)发布《推进联邦机构使用人工智能的治理、创新和风险管理》指导意见(Advancing Governance,Innovation,and Risk Management for Agency Use of Artificial Intelligence,备忘录M-24-10),确定各联邦机构必须遵守的最低AI风险管理实践。2025年1月,特朗普就任总统后签署行政命令《消除美国在人工智能领域发挥领导作用的障碍》(Removing Barriers to American Leadership in Artificial Intelligence) ,废除上述拜登行政令及相关政策要求,并提出制定新的人工智能行动计划,赋予私营部门在AI创新中更大的自主权。

美国目前尚无联邦层面的AI专门立法,主要依赖现有法律和指导原则进行监管,旨在避免过度约束创新,较为关注AI可能引发的歧视、公平、隐私等问题。2022年10月发布的白宫《人工智能权利法案蓝图》(The White House Blueprint for an AI Bill of Rights)提供AI应用的原则性指引,联邦贸易委员会(Federal Trade Commission,FTC)等机构依据现行法律框架开展执法。尽管没有联邦层面的专门法律,但仍有若干与AI相关的联邦立法提案。例如,“安全创新框架”(SAFE Innovation Framework)是一套鼓励联邦政府推动人工智能立法的原则,《人工智能研究创新与问责法案》(AI Research Innovation and Accountability Act)呼吁提高人工智能的透明度、问责性和安全性,并建立促进AI创新的框架。此外,一些州立法机构也提出了规范AI的法案,如2024年5月颁布并将于2026年生效的《科罗拉多人工智能法案》(Colorado AI Act)。

在金融领域,美国国会和金融监管部门分别采取措施加强AI治理。一是2024年2月,众议院金融服务委员会成立了两党参与的人工智能工作组(Task Force on Artificial Intelligence),从行业应用、发展路径等角度探讨AI对金融业的影响和相关监管等问题。二是财政部和金融稳定监督委员会(FSOC)加强了对AI技术和相关风险的监测。三是证券交易委员会(SEC)和消费者金融保护局(CFPB)先后任命了首席人工智能官(Chief Artificial Intelligence Officer,CAIO),并制定AI合规计划(compliance plan),以确保其AI治理与OMB指引要求一致。

2. 欧盟

欧盟对AI采取基于风险级别的监管方式,而非按具体行业区分监管。在专门立法出台之前,欧盟以原则性立场开展治理。2019年,欧盟发布《可信人工智能伦理指南》(Ethics Guidelines for Artificial Intelligence),提出可信赖的AI应满足合法、合乎伦理和稳健(包含技术稳健性与社会环境稳健性)的要求;发布《算法责任与透明治理框架》(A Governance Framework for Algorithmic Accountability and Transparency),明确了算法影响评估的主要内容。2024年8月,欧盟正式实施全球首部综合性AI立法《人工智能法案》(Artificial Intelligence Act)。该法案采用基于风险的分级监管路径,将AI系统按风险水平分为不可接受风险(unacceptable risk,例如利用AI进行行为操纵)、高风险(high risk,例如关键基础设施AI应用、信用评分等金融领域应用)、有限风险(limited risk,例如与消费者交互的AI)以及最低风险(minimal risk,例如垃圾邮件过滤器)四个等级,并针对不同等级制定了相应的合规要求。欧盟明确禁止在不可接受风险领域使用AI,严格管控高风险领域,要求低风险AI应用履行透明度披露等基本义务,而对风险最低的AI则基本不施加监管。欧盟层面设立了人工智能办公室,而欧盟成员国的市场监管机构负责执法。此外,《人工智能法案》设置了违规处罚性条款,具有较强的威慑力。

3. 英国

英国采取灵活、分行业的监管策略,通过现有法律和监管机构开展AI治理,旨在避免过度监管而抑制发展。2023年8月,英国政府发布《人工智能监管白皮书》(AI Regulation White Paper),提出安全、透明、公平、问责、可质疑等原则,并要求监管机构贯彻相关原则。2024年,相关监管机构陆续发布了报告阐述已经采取的措施和监管计划。例如,2024年4月,金融行为监管局(FCA)介绍了未来一年的工作计划,包括运行数字沙盒和监管沙盒等。2023年通过的《金融服务与市场法案》 (Financial Services and Markets Act 2023)首次将为金融机构和金融市场基础设施公司提供服务的关键第三方(critical third parties,CTP)纳入金融审慎监管,对其服务可靠性、安全性提出监管要求。 2024年 11月,英格兰银行、FCA 和审慎监管局(PRA)联合发布新的监管声明(supervisory statement SS6/24,critical third parties to the UK financial sector),引入了“系统性第三方服务”(systemic third- party services)的概念,并明确了相应的监管要求,以加强对提供关键技术服务企业的监督。

此外,2024年9月,美国、英国、欧盟等经济体共同签署了由欧洲委员会(The Council of Europe)制定的《人工智能、人权、民主和法治框架公约》(Council of Europe Framework Convention on Artificial Intelligence and Human Rights,Democracy and the Rule of Law),旨在确保AI全生命周期内的活动符合人权、民主和法治原则。

4. 新加坡

新加坡构建了以道德准则和行业指引为核心、辅以具体监管措施的AI治理框架。2018年,新加坡金融管理局(MAS)发布金融服务业人工智能和数据分析领域的FEAT原则(即公平、公正、问责、透明),并通过行业沙盒“Veritas”推动FEAT原则的落地。2019年发布的《人工智能治理模型框架》(2020年更新),强调透明度、可解释性、问责等原则,并提供企业自评工具。2024年5月,新加坡发布《生成式人工智能治理模型框架》(Model AI Governance Framework for Generative AI),扩展了2020年的框架,强调数据在生成式人工智能中的核心作用,并提出在数据源选择、数据透明度、数据保护机制、数据质量评估等方面的具体措施,以实现对生成式人工智能有效的数据治理。在治理工具方面,2022年5月,新加坡推出“人工智能验证”(AI verify)工具,根据预设的伦理原则验证AI系统性能。

(二)我国的AI监管框架和关键举措

近年来,我国加快构建AI治理和监管体系,通过行政法规和技术标准严控AI潜在高风险领域,并以伦理准则引导行业主体自律。2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了AI治理的框架和行动指南;2021年9月, 《新一代人工智能伦理规范》出台,强调将伦理道德融入人工智能全生命周期。 2022年,《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等文件陆续出台。2023年7月,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》(自2023年8月15日起施行),在鼓励创新发展的同时,明确了“对生成式人工智能服务实行包容审慎和分类分级监管”,明确要求服务提供者和使用者履行内容安全、算法透明等义务。监管部门通过算法备案、安全评估等措施,引导企业合规开发利用生成式人工智能; 对于违规的提供者,由主管部门依法依规予以处罚。

中国人民银行牵头建立金融领域AI治理框架,发布相关规划,制定相关标准,突出金融场景下的风险管控与伦理要求。其中,《金融科技发展规划(2022—2025年)》明确提出,抓住全球人工智能发展新机遇,以人为本全面推进智能技术在金融领域深化应用,强化科技伦理治理。中国人民银行科技司制定了《人工智能算法金融应用信息披露指南》(2023年发布)和《人工智能算法金融应用评价规范》(2021年实施)等行业标准。2022年,中国人民银行发布《金融领域科技伦理指引》,明确金融业在AI、大数据等技术应用中的伦理原则和规范。此外,中国信息通信研究院依托中国人工智能产业发展联盟(AIIA)推出“大模型安全基准测试”(AI Safety Benchmark),用于评估大模型的安全性能。

我国积极参与推动AI治理的国际协调合作,共同应对AI发展带来的机遇和风险。2023年10月,我国提出《全球人工智能治理倡议》。2025年7月26日,在世界人工智能大会(WAIC)上,我国倡议成立世界人工智能合作组织,大会发表《人工智能全球治理行动计划》,提出切实采取有效行动,协力推进全球人工智能发展与治理。治理方面,提出促进标准及规范共识,开展人工智能安全治理,构建多方参与的包容治理模式等。

三、构建多方共治的AI金融生态体系

构建AI金融生态体系需要多方参与、协同共治。至少涉及六类主体,即金融机构、科技公司、行业自律组织、金融消费者、从业人员和监管部门。

(一)金融机构应更加审慎运营

金融机构是AI在金融领域应用的主要推动者,应切实履行金融服务的主体责任,对金融消费者负责,以审慎态度推进AI应用。

一是注重业务场景与特定AI技术的适配性。金融机构在选择AI解决方案时,应充分考虑技术的成熟度、稳定性,及其与自身业务需求的契合度,避免盲目应用前沿技术。适合的才是最好的,尽量减少采用过于复杂、不稳定的AI模型,以免带来不必要的风险。

二是加强自主AI能力建设,减少对大型科技公司的过度依赖。大型金融机构应投入资源培养自主可控的AI能力,如训练掌握金融专业知识的模型,探索“大模型+小模型”协同、多个模型优势互补的应用模式,打造具有本机构特色的金融大模型,以满足多样化业务需求。中小金融机构可采取“以我为主、善借外力”的策略,在确保安全合规的前提下利用公共算力平台或开源模型,并叠加自身数据进行微调,以较低成本获取AI能力。通过自主可控与多元协同,构建多样化的模型生态,金融机构能够在一定程度上缓解对大科技公司的依赖,在AI时代掌握更多主动权。

三是主动将AI风险纳入全面风险管理框架。金融机构在引入AI技术时应同步完善内部风险管控机制,实现“人机协同”下的风险可控。首先,要将大模型纳入整体风险与合规管理框架,持续评估模型输出的合理性,加强AI决策过程的可解释性,确保AI参与的决策符合合规要求。其次,积极探索人机协同的业务模式,重塑业务流程,在关键流程、任务、环节建立有效的人工介入机制,实时监测AI运行并由人工对重要决策进行最终审核把关。最后,强化高层管理者和员工的AI风险意识与技能储备。

(二)科技公司应践行负责任创新

作为AI技术的提供者和金融创新的重要驱动力,科技公司应承担相应的社会责任和伦理责任,做到“有技术不任性、有数据不滥用”,通过透明、合规、可靠的技术供给来支持AI金融生态的健康发展。

一是坚守伦理和合规底线,将伦理原则内嵌于产品设计。科技公司应将“负责任的AI”理念贯穿于产品研发全流程,从模型设计阶段就注重公平、公正,避免算法歧视和偏见的固化;在模型训练过程中确保数据来源合法合规,保护个人隐私和敏感金融数据不被滥用;在模型部署前进行充分的安全测试和风险评估,明确模型的适用边界和可能的错误类型,帮助金融机构理解模型决策依据,确保AI模型结果可靠、可解释,相关风险在可控范围内。

二是加强与金融机构的合作联动,推动技术平权。科技公司应与金融机构紧密合作,提升技术透明度,厘清风险责任归属,助力行业实现AI赋能。制定应急预案,保障业务连续性。科技公司还可以通过算法优化、公共算力平台、大小模型协作等方式,降低金融机构AI应用的技术门槛和成本,促进缩小技术鸿沟。

三是大力培养“AI+金融”复合型人才。据调查,兼具金融专业知识与AI技术能力的人才缺口超过35%。科技公司应发挥自身技术优势,通过在产品开发团队中引入金融专才、协助金融机构培养复合型人才等方式,强化金融领域数据标注和知识挖掘,提升大模型金融知识水平。同时,要强化复合型人才的职业道德和风险意识,确保AI产品合规、高效地满足金融业务需求。

(三)行业协会组织应发挥自律和协调作用

金融行业协会组织可规范成员机构的AI应用行为,协调成员机构共建共享以实现规模效应,并充分发挥自身在行业与监管部门间的沟通桥梁作用。

一是制定AI应用的行业规范和自律公约。行业自律组织应争取监管部门的指导和支持,广泛吸纳监管部门、成员机构、金融消费者的意见,制定行业规范或自律公约,并确保其权威性和可行性。构建有效的监督机制,督促成员机构自律,对违反公约的行为采取必要的惩戒措施,提升行业自律公约的约束力。

二是协调成员机构共建共享。行业协会可以定期组织成员机构交流研讨AI应用实践,探索建立协会成员机构间的AI应用案例和风险数据库,促进金融机构间交流合作,避免各自为战。协会还可协调资源共建金融数据集、金融大模型、算力平台等基础设施,帮助金融机构特别是中小机构降低AI应用成本、提升应用能力。

三是加强与监管部门的互动。行业组织应积极向监管部门反馈行业动态以及实践中遇到的新情况、新问题,协助监管部门完善政策法规以及监管沙盒等创新机制,促进监管与行业良性互动,实现AI在金融领域应用的规范有序发展。

(四)加强金融消费者教育与权益保护

金融消费者是AI赋能金融服务的直接受众,其信任和权益保护是AI金融生态体系能够长期良性运转的基石,必须确保AI在金融领域的应用创新始终以人为本、服务于人。

一是加强金融消费者教育。以通俗易懂的方式让公众了解AI技术在金融领域的应用场景、边界,以及不同应用领域的潜在风险和风险等级,普及防AI欺诈相关知识,提升金融消费者对AI在金融领域应用的认知水平,强化风险意识。

二是完善金融消费者保护措施。金融机构在应用AI提供服务时,应确保消费者享有充分的知情权,并提供对AI决策的申诉和纠错渠道。监管部门应完善相关法律法规,加强对机构落实消费者保护要求的监督检查。

(五)从业人员应提升能力与素质

金融从业人员需要通过技能提升和在人机协同中把握主动权,实现人与AI的优势互补。一是持续增强使用AI技术的能力。从业人员应积极学习掌握AI相关知识和工具,并在相关规定允许范围内,将其运用于业务领域。二是在人机协同中适度干预。根据相关监管部门或机构界定的AI和人的职责边界,在职责范围内进行人机协同,对AI决策进行监督和复核把关,确保业务运营稳健可靠。

(六)监管部门应坚持包容审慎的理念,平衡支持创新与防控风险

面对AI驱动的金融创新浪潮,监管者需要在鼓励技术创新应用和防范金融风险之间把握平衡,做到包容审慎、与时俱进。

一是坚持技术中立和包容审慎的监管理念,着力营造“允许出错、及时纠错、快速改错”的创新环境。监管机构应以开放心态看待AI技术,秉持技术中立原则,不预先假定对新技术的立场,在风险可控的前提下包容创新探索,支持金融机构、科技公司在风险可控的真实市场环境中先行先试。同时,监管包容并不意味着放任,对AI带来的新型风险应及时识别和应对,监管部门应前瞻研判AI可能引发的金融风险情景,引导机构提前部署防范措施,筑牢风险防火墙。

二是坚持分级分类监管,加快完善AI应用的监管制度。AI技术在金融领域的应用形态多样、风险程度不一,监管应根据不同业务场景和流程的风险特征以及模型的重要性,因地制宜设定准入标准和备案机制,完善差异化的监管规则,制定针对性的监管措施。充分发挥标准规范的引领作用,构筑防范AI技术风险向金融领域传导的“安全网”。

三是加强监管科技(RegTech)能力建设,运用AI提升监管效能。监管部门要与时俱进,完善自身的数据和技术基础设施,积极运用AI技术提高监管能力,建设统一的监管数据平台,实现跨机构、跨市场的数据整合与共享;培养一批既懂金融又懂AI的复合型监管人才。探索构建智能化监管系统,更有效地监测市场动态、发现风险隐患,实现对金融机构行为的穿透式监管。

四是支持高质量金融数据要素市场的健康有序发展。监管部门应完善数据治理制度,推动形成合法合规的金融数据共享和交易机制,夯实AI在金融领域应用创新的数据基础。加强对数据垄断、数据滥用的监管,守住数据安全和隐私保护的底线。

五是加强AI金融生态的金融消费者保护。完善相关法律法规和配套制度,加强对金融机构落实消费者保护责任的监督检查,确保AI应用真正为消费者创造价值、带来福祉。

四、AI在金融领域应用相关风险的宏观审慎管理考量

宏观审慎管理需要前瞻性地将AI相关因素纳入考量,注重强化跨部门协调机制和政策工具,建立健全针对系统重要性基础设施风险的监管框架,提升金融体系在AI时代的韧性。

(一)妥善应对AI放大的顺周期性风险

一是基于人工智能应用视角,对系统重要性金融机构(SIFI)提出附加的宏观审慎管理要求,丰富宏观审慎管理工具箱。为避免AI模型过度趋同,监管部门可要求系统重要性金融机构采用更具多样性和个性化的AI建模方案,防止金融体系形成单一模型的过度依赖。同时,将AI模型失准情景纳入压力测试范围,评估其在极端市场波动时期的表现。研究探索针对AI模型风险的资本缓冲和动态拨备要求。正如国际清算银行(BIS)总经理Pablo Hernández de Cos指出的,上一次全球金融危机中银行内部模型未能“跨越周期”发挥作用,而AI模型由于高度依赖历史数据模式,更可能在压力时期失效(Hernández de Cos,2024)。因此,提前为AI相关风险计提额外资本和拨备,有助于增强系统重要性金融机构在AI时代抵御冲击的能力。

二是开发AI驱动的系统性金融风险监测分析和早期预警系统,以增强应对顺周期性风险的前瞻性。监管部门应积极运用监管科技手段升级数据架构,弥补数据缺口,构建实时的AI相关金融风险监测与预警系统,捕捉因AI应用而积聚的风险信号,实现“见微知著”。在风险由量变累积成质变之前,及时采取宏观审慎干预措施,平抑AI可能放大的顺周期波动幅度。

(二)防范风险跨机构、跨市场传染

为防范跨行业、跨机构、跨市场甚至跨境的AI应用相关的风险传染,监管部门需完善跨部门协调机制和政策工具,防止局部风险演变为系统性危机。

一是建立信息共享和协同监测机制。不同监管机构间加强协作,全面评估AI引发系统性金融风险的可能情景和风险传染路径,建立跨部门的信息共享和联合监测机制,实现对金融体系AI风险的全景式监测分析,及时发现苗头性、倾向性问题。

二是建立缓释“市场共振”的干预机制。监管部门应评估现有政策工具是否能够有效应对AI时代的跨机构、跨市场风险共振,酌情引入必要的政策工具。强化关键时刻的流动性支持、市场预期引导,避免风险在短时间内蔓延升级。

三是加强国际监管合作。在联合国、金融稳定理事会(FSB)等国际组织设立的原则框架下,建立国际监管联合工作组,统一各国的AI相关金融风险的监测和披露要求,将AI相关风险纳入跨境金融监管协作机制中,加强跨境监管合作。

(三)加强对系统重要性的技术服务商的监管

一是将经认定的系统重要性技术服务商纳入宏观审慎管理。探索建立对提供AI技术服务的科技公司的系统重要性评估框架,制定其作为系统重要性金融基础设施的认定标准,将符合系统重要性标准的科技公司纳入宏观审慎监管范围。要求定期报送监管数据、披露相关信息,开展压力测试,评估其对金融稳定的潜在影响,确保其服务的透明度、稳定性、公平性和安全性。

二是探索针对系统重要性技术服务商的专项监管要求。制定与其系统重要性程度相匹配的监管要求,涵盖公司治理、风险管理、供应链、技术稳健性等方面,以增强其持续经营能力,降低发生重大风险的可能性。

编辑:刘润榕

声明:新华财经(中国金融信息网)为新华社承建的国家金融信息平台。任何情况下,本平台所发布的信息均不构成投资建议。如有问题,请联系客服:400-6123115

一是2024年2月,众议院金融服务委员会成立了两党参与的人工智能工作组(TaskForceonArtificialIntelligence),从行业应用、发展路径等角度探讨AI对金融业的影响和相关监管等问题。

24000ab30f0d468f85f40ec99288a579.png

一、AI应用对金融风险的影响

AI技术在金融领域的广泛应用会对金融风险产生复杂影响。一方面,AI有助于缓解信息不对称,提升金融风险管理能力;另一方面,AI模型本身也带来新的风险,并可能放大系统性风险 。

(一)AI技术有利于提升金融风险管理能力

AI技术通过扩展数据处理维度和实时分析能力,有助于金融体系更加主动地识别和防范风险,降低部分传统金融风险的发生概率。

一是缓解信息不对称,提高信用风险管理效率。金融机构利用AI抓取多模态和非结构化数据(如交易记录、社交媒体行为等)来丰富对借款人和交易对手的认识,从而缓减信息不对称。机器学习模型能够比传统评分方法更有效地评估借款人的违约概率,尤其是在市场环境波动时或新兴领域,帮助金融机构更有效地将信贷资源配置给优质借款人,降低信用风险和信贷损失率(Foucaultet al.,2025)。

二是提升金融风险监测与防范能力。AI模型可通过对海量交易和行为数据的异常模式识别,及时发现欺诈交易和网络攻击迹象,提高金融机构的操作风险管控能力(Aldasoro et al.,2024)。监管机构也可以借助AI工具监测市场交易和舆情信息,及时捕捉金融体系中的风险苗头(Foucault et al., 2025)。换言之,AI应用有利于增强金融体系对风险事件的敏感度和响应速度,使得风险可以在酝酿阶段就被识别并得到缓释和控制。

(二)过度依赖AI模型可能带来新的金融风险

一是AI幻觉(hallucination)降低金融业务输出可靠性。由于训练数据不完备或质量欠佳,金融领域中的AI系统输出内容的可靠性和严谨性难以保证,往往难以满足金融业务对结果精准性、专业性、稳定性、一致性的要求(Barr,2025)。金融行业对数据安全合规性有高要求,而构建高质量AI模型需要大量高质量训练数据;目前许多机构的数据仍分散在各部门形成“数据孤岛”,数据清洗和标注也面临巨大的工作量,这些都增加了模型产生幻觉和错误的可能性。尽管科技公司正努力通过提高训练数据透明度和定制模型来缓解幻觉问题,但可以预见,在相当一段时间内AI幻觉仍将是影响金融AI可靠性的重要风险来源(Shabsigh et al.,2023)。

二是算法“黑箱”使模型可解释性有限,加大风险管理和监管难度。复杂AI模型的内部机制往往不透明,其决策过程难以被人类直接理解,即算法黑箱问题导致模型缺乏充分的可解释性(explainability)。这难以满足金融机构内部风险控制审查和监管部门对某些关键业务流程穿透式监管的要求,不利于有效的风险溯源、管控和责任认定,可能使机构陷入合规困境。在不同机构广泛采用类似的复杂AI模型的情况下,如果模型存在相似缺陷又不易被察觉,就可能在不同机构中同时积累系统性风险隐患(Crisanto et al.,2024;Bank of England,2025)。

三是算法歧视可能产生不公平的结果。AI模型可能固化甚至放大训练数据中的偏见,侵害消费者权益,引发法律和声誉风险。例如,有的金融科技平台可能利用AI推断借款人的支付意愿,对不同借款人进行差异化定价,形成价格歧视(Foucault et al.,2025)。对此,国际组织强调AI系统不应固化偏见,要求在模型开发和应用中纳入公平性原则(Shabsigh et al.,2023;Aldasoro et al.,2024)。

四是依赖少数大型AI服务商带来新的集中度风险。由于开发大模型需要巨额投入和海量数据,市场上只有少数头部企业有能力提供最先进的AI解决方案,掌握着关键技术和算力资源,且其技术在行业中渗透率高。如果多数金融机构在AI底层技术上过度依赖少数技术服务商,则后者实质上就成为具有系统重要性的金融基础设施,形成“大而不能倒”的风险隐患。一旦这类技术服务商发生技术故障或服务中断,可能引发连锁反应,危及整个金融体系的稳定(Crisanto et al.,2024;Bank of England,2025)。此外,如果金融机构普遍使用相似的开源模型或由同一服务商提供的模型来进行风险判断,还可能导致市场行为趋同,放大系统性风险和市场波动。

(三)AI大模型应用可能放大系统性金融风险

一是决策趋同加剧金融市场的顺周期性并引发系统性风险。当众多金融机构和市场参与者采用相似的AI模型、算法和训练数据时,决策趋同可能导致“羊群效应”,易于形成跨机构、跨市场的共振,放大市场波动,威胁金融稳定(Abbas et al.,2024)。由于AI模型可解释性不足,监管者在事前识别此类潜在风险方面较为困难。因此,AI的大规模应用有可能通过提高决策的同质性而加剧顺周期波动,在极端情况下引发系统性金融风险,需要引起高度重视(FSB,2024)。

二是AI技术鸿沟可能拉大大型机构与中小机构间的差距,加剧金融业两极分化,带来金融稳定风险。大模型技术门槛高,大型机构在数据、人才和资金方面更具优势,率先实现AI赋能业务,而中小金融机构处于劣势。近期行业调研显示,全球领先的大型银行在AI成熟度上的进展速度几乎是中小机构的两倍(Evident Insights,2025)。大型机构的先发优势容易形成正反馈,使行业呈现“强者愈强、弱者愈弱”的马太效应。中小机构在竞争压力下可能采取更激进的策略追逐高收益,承担高风险,加剧金融风险暴露。不过,DeepSeek的兴起促使MoE稀疏结构等技术广泛应用,大幅降低推理成本,有助于缩小技术鸿沟。

三是金融消费者保护面临更大挑战。一方面,不法分子可能利用AI实施金融欺诈和信息操纵,给金融消费者造成损失。德勤研究显示,2023年全球金融科技领域的深度伪造(deepfake)欺诈事件同比激增了700%;预计美国因AI相关欺诈所造成的损失将从2023年的约123亿美元飙升至2027年的400亿美元(Deloitte,2024)。另一方面,数据安全与隐私保护的风险增加。金融领域的 AI系统通常需要收集和处理大量敏感数据,既存在数据泄露风险,又面临系统受到网络攻击、数据模型被篡改等风险。

二、人工智能的监管框架与措施

各国的AI监管框架路径存在差异,但都积极探索平衡AI应用发展与安全的有效模式 。美国侧重自愿准则与现行法规并用,欧盟通过专门立法严控高风险AI,英国和新加坡强调灵活监管与行业指引,我国综合运用行政法规、技术标准和伦理准则开展治理。

(一)国外AI监管框架特点和关键举措

近年来,主要经济体陆续发布AI监管政策,全球AI监管体系正逐步成形。

1. 美国

美国的AI治理导向是避免过度干预,主要采取非强制性、分行业的监管方式。2023年1月,美国国家标准与技术研究院发布自愿性的《人工智能风险管理框架》。2023年10月,拜登政府发布行政命令《关于安全、可靠、可信地开发和使用人工智能的行政命令》(Executive Order on the Safe,Secure, and Trustworthy Development and Use of Artificial Intelligence),强调以安全、负责任的方式管理人工智能的开发和使用,加强了AI监管。2024年3月,白宫管理和预算办公室(OMB)发布《推进联邦机构使用人工智能的治理、创新和风险管理》指导意见(Advancing Governance,Innovation,and Risk Management for Agency Use of Artificial Intelligence,备忘录M-24-10),确定各联邦机构必须遵守的最低AI风险管理实践。2025年1月,特朗普就任总统后签署行政命令《消除美国在人工智能领域发挥领导作用的障碍》(Removing Barriers to American Leadership in Artificial Intelligence) ,废除上述拜登行政令及相关政策要求,并提出制定新的人工智能行动计划,赋予私营部门在AI创新中更大的自主权。

美国目前尚无联邦层面的AI专门立法,主要依赖现有法律和指导原则进行监管,旨在避免过度约束创新,较为关注AI可能引发的歧视、公平、隐私等问题。2022年10月发布的白宫《人工智能权利法案蓝图》(The White House Blueprint for an AI Bill of Rights)提供AI应用的原则性指引,联邦贸易委员会(Federal Trade Commission,FTC)等机构依据现行法律框架开展执法。尽管没有联邦层面的专门法律,但仍有若干与AI相关的联邦立法提案。例如,“安全创新框架”(SAFE Innovation Framework)是一套鼓励联邦政府推动人工智能立法的原则,《人工智能研究创新与问责法案》(AI Research Innovation and Accountability Act)呼吁提高人工智能的透明度、问责性和安全性,并建立促进AI创新的框架。此外,一些州立法机构也提出了规范AI的法案,如2024年5月颁布并将于2026年生效的《科罗拉多人工智能法案》(Colorado AI Act)。

在金融领域,美国国会和金融监管部门分别采取措施加强AI治理。一是2024年2月,众议院金融服务委员会成立了两党参与的人工智能工作组(Task Force on Artificial Intelligence),从行业应用、发展路径等角度探讨AI对金融业的影响和相关监管等问题。二是财政部和金融稳定监督委员会(FSOC)加强了对AI技术和相关风险的监测。三是证券交易委员会(SEC)和消费者金融保护局(CFPB)先后任命了首席人工智能官(Chief Artificial Intelligence Officer,CAIO),并制定AI合规计划(compliance plan),以确保其AI治理与OMB指引要求一致。

2. 欧盟

欧盟对AI采取基于风险级别的监管方式,而非按具体行业区分监管。在专门立法出台之前,欧盟以原则性立场开展治理。2019年,欧盟发布《可信人工智能伦理指南》(Ethics Guidelines for Artificial Intelligence),提出可信赖的AI应满足合法、合乎伦理和稳健(包含技术稳健性与社会环境稳健性)的要求;发布《算法责任与透明治理框架》(A Governance Framework for Algorithmic Accountability and Transparency),明确了算法影响评估的主要内容。2024年8月,欧盟正式实施全球首部综合性AI立法《人工智能法案》(Artificial Intelligence Act)。该法案采用基于风险的分级监管路径,将AI系统按风险水平分为不可接受风险(unacceptable risk,例如利用AI进行行为操纵)、高风险(high risk,例如关键基础设施AI应用、信用评分等金融领域应用)、有限风险(limited risk,例如与消费者交互的AI)以及最低风险(minimal risk,例如垃圾邮件过滤器)四个等级,并针对不同等级制定了相应的合规要求。欧盟明确禁止在不可接受风险领域使用AI,严格管控高风险领域,要求低风险AI应用履行透明度披露等基本义务,而对风险最低的AI则基本不施加监管。欧盟层面设立了人工智能办公室,而欧盟成员国的市场监管机构负责执法。此外,《人工智能法案》设置了违规处罚性条款,具有较强的威慑力。

3. 英国

英国采取灵活、分行业的监管策略,通过现有法律和监管机构开展AI治理,旨在避免过度监管而抑制发展。2023年8月,英国政府发布《人工智能监管白皮书》(AI Regulation White Paper),提出安全、透明、公平、问责、可质疑等原则,并要求监管机构贯彻相关原则。2024年,相关监管机构陆续发布了报告阐述已经采取的措施和监管计划。例如,2024年4月,金融行为监管局(FCA)介绍了未来一年的工作计划,包括运行数字沙盒和监管沙盒等。2023年通过的《金融服务与市场法案》 (Financial Services and Markets Act 2023)首次将为金融机构和金融市场基础设施公司提供服务的关键第三方(critical third parties,CTP)纳入金融审慎监管,对其服务可靠性、安全性提出监管要求。 2024年 11月,英格兰银行、FCA 和审慎监管局(PRA)联合发布新的监管声明(supervisory statement SS6/24,critical third parties to the UK financial sector),引入了“系统性第三方服务”(systemic third- party services)的概念,并明确了相应的监管要求,以加强对提供关键技术服务企业的监督。

此外,2024年9月,美国、英国、欧盟等经济体共同签署了由欧洲委员会(The Council of Europe)制定的《人工智能、人权、民主和法治框架公约》(Council of Europe Framework Convention on Artificial Intelligence and Human Rights,Democracy and the Rule of Law),旨在确保AI全生命周期内的活动符合人权、民主和法治原则。

4. 新加坡

新加坡构建了以道德准则和行业指引为核心、辅以具体监管措施的AI治理框架。2018年,新加坡金融管理局(MAS)发布金融服务业人工智能和数据分析领域的FEAT原则(即公平、公正、问责、透明),并通过行业沙盒“Veritas”推动FEAT原则的落地。2019年发布的《人工智能治理模型框架》(2020年更新),强调透明度、可解释性、问责等原则,并提供企业自评工具。2024年5月,新加坡发布《生成式人工智能治理模型框架》(Model AI Governance Framework for Generative AI),扩展了2020年的框架,强调数据在生成式人工智能中的核心作用,并提出在数据源选择、数据透明度、数据保护机制、数据质量评估等方面的具体措施,以实现对生成式人工智能有效的数据治理。在治理工具方面,2022年5月,新加坡推出“人工智能验证”(AI verify)工具,根据预设的伦理原则验证AI系统性能。

(二)我国的AI监管框架和关键举措

近年来,我国加快构建AI治理和监管体系,通过行政法规和技术标准严控AI潜在高风险领域,并以伦理准则引导行业主体自律。2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了AI治理的框架和行动指南;2021年9月, 《新一代人工智能伦理规范》出台,强调将伦理道德融入人工智能全生命周期。 2022年,《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等文件陆续出台。2023年7月,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》(自2023年8月15日起施行),在鼓励创新发展的同时,明确了“对生成式人工智能服务实行包容审慎和分类分级监管”,明确要求服务提供者和使用者履行内容安全、算法透明等义务。监管部门通过算法备案、安全评估等措施,引导企业合规开发利用生成式人工智能; 对于违规的提供者,由主管部门依法依规予以处罚。

中国人民银行牵头建立金融领域AI治理框架,发布相关规划,制定相关标准,突出金融场景下的风险管控与伦理要求。其中,《金融科技发展规划(2022—2025年)》明确提出,抓住全球人工智能发展新机遇,以人为本全面推进智能技术在金融领域深化应用,强化科技伦理治理。中国人民银行科技司制定了《人工智能算法金融应用信息披露指南》(2023年发布)和《人工智能算法金融应用评价规范》(2021年实施)等行业标准。2022年,中国人民银行发布《金融领域科技伦理指引》,明确金融业在AI、大数据等技术应用中的伦理原则和规范。此外,中国信息通信研究院依托中国人工智能产业发展联盟(AIIA)推出“大模型安全基准测试”(AI Safety Benchmark),用于评估大模型的安全性能。

我国积极参与推动AI治理的国际协调合作,共同应对AI发展带来的机遇和风险。2023年10月,我国提出《全球人工智能治理倡议》。2025年7月26日,在世界人工智能大会(WAIC)上,我国倡议成立世界人工智能合作组织,大会发表《人工智能全球治理行动计划》,提出切实采取有效行动,协力推进全球人工智能发展与治理。治理方面,提出促进标准及规范共识,开展人工智能安全治理,构建多方参与的包容治理模式等。

三、构建多方共治的AI金融生态体系

构建AI金融生态体系需要多方参与、协同共治。至少涉及六类主体,即金融机构、科技公司、行业自律组织、金融消费者、从业人员和监管部门。

(一)金融机构应更加审慎运营

金融机构是AI在金融领域应用的主要推动者,应切实履行金融服务的主体责任,对金融消费者负责,以审慎态度推进AI应用。

一是注重业务场景与特定AI技术的适配性。金融机构在选择AI解决方案时,应充分考虑技术的成熟度、稳定性,及其与自身业务需求的契合度,避免盲目应用前沿技术。适合的才是最好的,尽量减少采用过于复杂、不稳定的AI模型,以免带来不必要的风险。

二是加强自主AI能力建设,减少对大型科技公司的过度依赖。大型金融机构应投入资源培养自主可控的AI能力,如训练掌握金融专业知识的模型,探索“大模型+小模型”协同、多个模型优势互补的应用模式,打造具有本机构特色的金融大模型,以满足多样化业务需求。中小金融机构可采取“以我为主、善借外力”的策略,在确保安全合规的前提下利用公共算力平台或开源模型,并叠加自身数据进行微调,以较低成本获取AI能力。通过自主可控与多元协同,构建多样化的模型生态,金融机构能够在一定程度上缓解对大科技公司的依赖,在AI时代掌握更多主动权。

三是主动将AI风险纳入全面风险管理框架。金融机构在引入AI技术时应同步完善内部风险管控机制,实现“人机协同”下的风险可控。首先,要将大模型纳入整体风险与合规管理框架,持续评估模型输出的合理性,加强AI决策过程的可解释性,确保AI参与的决策符合合规要求。其次,积极探索人机协同的业务模式,重塑业务流程,在关键流程、任务、环节建立有效的人工介入机制,实时监测AI运行并由人工对重要决策进行最终审核把关。最后,强化高层管理者和员工的AI风险意识与技能储备。

(二)科技公司应践行负责任创新

作为AI技术的提供者和金融创新的重要驱动力,科技公司应承担相应的社会责任和伦理责任,做到“有技术不任性、有数据不滥用”,通过透明、合规、可靠的技术供给来支持AI金融生态的健康发展。

一是坚守伦理和合规底线,将伦理原则内嵌于产品设计。科技公司应将“负责任的AI”理念贯穿于产品研发全流程,从模型设计阶段就注重公平、公正,避免算法歧视和偏见的固化;在模型训练过程中确保数据来源合法合规,保护个人隐私和敏感金融数据不被滥用;在模型部署前进行充分的安全测试和风险评估,明确模型的适用边界和可能的错误类型,帮助金融机构理解模型决策依据,确保AI模型结果可靠、可解释,相关风险在可控范围内。

二是加强与金融机构的合作联动,推动技术平权。科技公司应与金融机构紧密合作,提升技术透明度,厘清风险责任归属,助力行业实现AI赋能。制定应急预案,保障业务连续性。科技公司还可以通过算法优化、公共算力平台、大小模型协作等方式,降低金融机构AI应用的技术门槛和成本,促进缩小技术鸿沟。

三是大力培养“AI+金融”复合型人才。据调查,兼具金融专业知识与AI技术能力的人才缺口超过35%。科技公司应发挥自身技术优势,通过在产品开发团队中引入金融专才、协助金融机构培养复合型人才等方式,强化金融领域数据标注和知识挖掘,提升大模型金融知识水平。同时,要强化复合型人才的职业道德和风险意识,确保AI产品合规、高效地满足金融业务需求。

(三)行业协会组织应发挥自律和协调作用

金融行业协会组织可规范成员机构的AI应用行为,协调成员机构共建共享以实现规模效应,并充分发挥自身在行业与监管部门间的沟通桥梁作用。

一是制定AI应用的行业规范和自律公约。行业自律组织应争取监管部门的指导和支持,广泛吸纳监管部门、成员机构、金融消费者的意见,制定行业规范或自律公约,并确保其权威性和可行性。构建有效的监督机制,督促成员机构自律,对违反公约的行为采取必要的惩戒措施,提升行业自律公约的约束力。

二是协调成员机构共建共享。行业协会可以定期组织成员机构交流研讨AI应用实践,探索建立协会成员机构间的AI应用案例和风险数据库,促进金融机构间交流合作,避免各自为战。协会还可协调资源共建金融数据集、金融大模型、算力平台等基础设施,帮助金融机构特别是中小机构降低AI应用成本、提升应用能力。

三是加强与监管部门的互动。行业组织应积极向监管部门反馈行业动态以及实践中遇到的新情况、新问题,协助监管部门完善政策法规以及监管沙盒等创新机制,促进监管与行业良性互动,实现AI在金融领域应用的规范有序发展。

(四)加强金融消费者教育与权益保护

金融消费者是AI赋能金融服务的直接受众,其信任和权益保护是AI金融生态体系能够长期良性运转的基石,必须确保AI在金融领域的应用创新始终以人为本、服务于人。

一是加强金融消费者教育。以通俗易懂的方式让公众了解AI技术在金融领域的应用场景、边界,以及不同应用领域的潜在风险和风险等级,普及防AI欺诈相关知识,提升金融消费者对AI在金融领域应用的认知水平,强化风险意识。

二是完善金融消费者保护措施。金融机构在应用AI提供服务时,应确保消费者享有充分的知情权,并提供对AI决策的申诉和纠错渠道。监管部门应完善相关法律法规,加强对机构落实消费者保护要求的监督检查。

(五)从业人员应提升能力与素质

金融从业人员需要通过技能提升和在人机协同中把握主动权,实现人与AI的优势互补。一是持续增强使用AI技术的能力。从业人员应积极学习掌握AI相关知识和工具,并在相关规定允许范围内,将其运用于业务领域。二是在人机协同中适度干预。根据相关监管部门或机构界定的AI和人的职责边界,在职责范围内进行人机协同,对AI决策进行监督和复核把关,确保业务运营稳健可靠。

(六)监管部门应坚持包容审慎的理念,平衡支持创新与防控风险

面对AI驱动的金融创新浪潮,监管者需要在鼓励技术创新应用和防范金融风险之间把握平衡,做到包容审慎、与时俱进。

一是坚持技术中立和包容审慎的监管理念,着力营造“允许出错、及时纠错、快速改错”的创新环境。监管机构应以开放心态看待AI技术,秉持技术中立原则,不预先假定对新技术的立场,在风险可控的前提下包容创新探索,支持金融机构、科技公司在风险可控的真实市场环境中先行先试。同时,监管包容并不意味着放任,对AI带来的新型风险应及时识别和应对,监管部门应前瞻研判AI可能引发的金融风险情景,引导机构提前部署防范措施,筑牢风险防火墙。

二是坚持分级分类监管,加快完善AI应用的监管制度。AI技术在金融领域的应用形态多样、风险程度不一,监管应根据不同业务场景和流程的风险特征以及模型的重要性,因地制宜设定准入标准和备案机制,完善差异化的监管规则,制定针对性的监管措施。充分发挥标准规范的引领作用,构筑防范AI技术风险向金融领域传导的“安全网”。

三是加强监管科技(RegTech)能力建设,运用AI提升监管效能。监管部门要与时俱进,完善自身的数据和技术基础设施,积极运用AI技术提高监管能力,建设统一的监管数据平台,实现跨机构、跨市场的数据整合与共享;培养一批既懂金融又懂AI的复合型监管人才。探索构建智能化监管系统,更有效地监测市场动态、发现风险隐患,实现对金融机构行为的穿透式监管。

四是支持高质量金融数据要素市场的健康有序发展。监管部门应完善数据治理制度,推动形成合法合规的金融数据共享和交易机制,夯实AI在金融领域应用创新的数据基础。加强对数据垄断、数据滥用的监管,守住数据安全和隐私保护的底线。

五是加强AI金融生态的金融消费者保护。完善相关法律法规和配套制度,加强对金融机构落实消费者保护责任的监督检查,确保AI应用真正为消费者创造价值、带来福祉。

四、AI在金融领域应用相关风险的宏观审慎管理考量

宏观审慎管理需要前瞻性地将AI相关因素纳入考量,注重强化跨部门协调机制和政策工具,建立健全针对系统重要性基础设施风险的监管框架,提升金融体系在AI时代的韧性。

(一)妥善应对AI放大的顺周期性风险

一是基于人工智能应用视角,对系统重要性金融机构(SIFI)提出附加的宏观审慎管理要求,丰富宏观审慎管理工具箱。为避免AI模型过度趋同,监管部门可要求系统重要性金融机构采用更具多样性和个性化的AI建模方案,防止金融体系形成单一模型的过度依赖。同时,将AI模型失准情景纳入压力测试范围,评估其在极端市场波动时期的表现。研究探索针对AI模型风险的资本缓冲和动态拨备要求。正如国际清算银行(BIS)总经理Pablo Hernández de Cos指出的,上一次全球金融危机中银行内部模型未能“跨越周期”发挥作用,而AI模型由于高度依赖历史数据模式,更可能在压力时期失效(Hernández de Cos,2024)。因此,提前为AI相关风险计提额外资本和拨备,有助于增强系统重要性金融机构在AI时代抵御冲击的能力。

二是开发AI驱动的系统性金融风险监测分析和早期预警系统,以增强应对顺周期性风险的前瞻性。监管部门应积极运用监管科技手段升级数据架构,弥补数据缺口,构建实时的AI相关金融风险监测与预警系统,捕捉因AI应用而积聚的风险信号,实现“见微知著”。在风险由量变累积成质变之前,及时采取宏观审慎干预措施,平抑AI可能放大的顺周期波动幅度。

(二)防范风险跨机构、跨市场传染

为防范跨行业、跨机构、跨市场甚至跨境的AI应用相关的风险传染,监管部门需完善跨部门协调机制和政策工具,防止局部风险演变为系统性危机。

一是建立信息共享和协同监测机制。不同监管机构间加强协作,全面评估AI引发系统性金融风险的可能情景和风险传染路径,建立跨部门的信息共享和联合监测机制,实现对金融体系AI风险的全景式监测分析,及时发现苗头性、倾向性问题。

二是建立缓释“市场共振”的干预机制。监管部门应评估现有政策工具是否能够有效应对AI时代的跨机构、跨市场风险共振,酌情引入必要的政策工具。强化关键时刻的流动性支持、市场预期引导,避免风险在短时间内蔓延升级。

三是加强国际监管合作。在联合国、金融稳定理事会(FSB)等国际组织设立的原则框架下,建立国际监管联合工作组,统一各国的AI相关金融风险的监测和披露要求,将AI相关风险纳入跨境金融监管协作机制中,加强跨境监管合作。

(三)加强对系统重要性的技术服务商的监管

一是将经认定的系统重要性技术服务商纳入宏观审慎管理。探索建立对提供AI技术服务的科技公司的系统重要性评估框架,制定其作为系统重要性金融基础设施的认定标准,将符合系统重要性标准的科技公司纳入宏观审慎监管范围。要求定期报送监管数据、披露相关信息,开展压力测试,评估其对金融稳定的潜在影响,确保其服务的透明度、稳定性、公平性和安全性。

二是探索针对系统重要性技术服务商的专项监管要求。制定与其系统重要性程度相匹配的监管要求,涵盖公司治理、风险管理、供应链、技术稳健性等方面,以增强其持续经营能力,降低发生重大风险的可能性。

编辑:刘润榕

声明:新华财经(中国金融信息网)为新华社承建的国家金融信息平台。任何情况下,本平台所发布的信息均不构成投资建议。如有问题,请联系客服:400-6123115

展开
打开“财经头条”阅读更多精彩资讯
APP内打开